Adaptado a partir da versão publicada originalmente na revista Culture Machine, vol. 14, 2013
A abundância vermelha
Logo após o grande colapso de Wall Street em 2008, um romance sobre eventos históricos obscuros e remotos forneceu um inesperado nó para a discussão da crise em curso. Abundância vermelha (“Red Plenty ”, de 2010), de Francis Spufford, oferecia um relato ficcionalizado da tentativa fracassada dos ciberneticistas soviéticos da década de 1960 de estabelecer um sistema totalmente informatizado de planejamento econômico. Misturando figuras históricas – Leonid Kantorovich, inventor das equações de programação linear; Sergei Alexeievich Lebedev, pioneiro soviético no projeto de computadores; Nikita Khrushchev, Primeiro Secretário do Partido Comunista – junto de personagens imaginários, e os colocando a todos em movimento pelos corredores do Kremlin, por coletivos rurais, fábricas industriais e pela cidade científica siberiana de Akademgorodok, Abundância vermelha teve sucesso na improvável missão de tornar o planejamento cibernético o tema de um livro que te força a continuar virando as páginas. No entanto, o interesse que o livro atraiu de economistas, cientistas da computação e militantes políticos não foi devido apenas à sua narrativa sobre empreendimento científico e intriga política; foi também muito devido ao momento. Aparecendo em meio à austeridade e ao desemprego, com o mercado mundial ainda vacilando à beira do colapso, Abundância vermelha podia ser interpretado de diferentes maneiras: a) como um conto de fadas cuja moral, recordando as debacles soviéticas, seria nos lembrar que o capitalismo continua sendo a única bolacha no pacote, mesmo que viesse se comportando mal (“não há alternativa”); ou b) pelo contrário, como uma rememoração de potencialidades não realizadas, sussurrando não apenas o pitoresco slogan altermundialista de que “um outro mundo é possível”, mas aquilo que David Harvey (2010: np) identifica como a possibilidade mais convincente e subversiva, a possibilidade de um “outro comunismo”.
Este artigo toma o romance de Spufford como o ponto de partida para embarcar em um exame das plataformas computacionais que seriam necessárias para uma “abundância vermelha” contemporânea. Não se trata de uma discussão sobre os méritos e deméritos do hacktivismo, da desobediência digital, dos tecidos eletrônicos de luta, de “tweets nas ruas” e de revoluções do Facebook, e sim sobre o comunismo digital. Este é um tema que já foi tocado por uma onda de autores buscando repensar a vida após o capitalismo, que foi desencadeada pela implosão da URSS em 1989, em propostas de “economia participativa” (Albert & Hahnel, 1991), um “novo socialismo” [ou “ciber-comunismo”] (Cockshott & Cottrell, 1993), “socialismo do século XXI” (Dieterich, 2006), ou formas de “comunidade”/“commonwealth” (Hardt & Negri, 2009). Diferente de algumas dessas fontes, entretanto, este ensaio não visa fornecer “planos” ou “plantas” detalhadas para uma nova sociedade – planos que muitas vezes competem entre si – mas sim aquilo que Greig de Peuter, em uma conversa pessoal, certa vez chamou de “plantas vermelhas” [num trocadilho com a palavra “blueprint”, que traduzida ao pé da letra significaria literalmente “planta azul”] – orientações aproximadas para possibilidades revolucionárias.
Ao discutir computação e comunismo é quase impossível escapar às acusações de que se estaria abandonando as lutas para se sujeitar a um determinismo mecânico. Certamente, todos os modelos automáticos, teleológicos e evolutivos, incluindo coreografias esquematizadas de forças e relações de produção, devem ser rejeitados. Igualmente importante, no entanto, é evitar um determinismo humanista contrário, que exagere a autonomia e o privilégio ontológico do “homem versus máquina”. Aqui, os modos de produção, e as lutas que os convulsionam são compreendidos como combinações de agentes humanos e mecânicos – “montagens” (“assemblages”) Deleuzo-De-Landianas, emaranhadas, hibridizadas e co-determinadas (Thorburn, 2013).
É por isso que a estimativa enviada a mim por Benjamin Peters, historiador de Cibernética Soviética, de que, em comparação com as máquinas disponíveis para os planejadores de Abundância vermelha em, digamos, 1969, o poder de processamento do computador mais rápido em 2019 representaria “um aumento de aproximadamente 100.000.000.000 de vezes em operações por segundo”, é excitante – uma informação que, como observa Peters, “por si só pode não ser significativa, mas, ainda assim, é algo sugestivo”. A argumentação que se segue explora essa sugestividade. Este artigo, portanto, analisa a linha de passagem mais direta das contínuas tentativas da cibernética soviética de teorizar formas de planejamento econômico, até outras baseadas em algoritmos de tempo de trabalho e supercomputação. Em seguida, discute como as preocupações com o planejamento central autoritário podem ser afetadas pelas redes sociais e por agentes de software, antes de considerar se o planejamento seria redundante em um mundo de autômatos, cópias e replicação. Em resposta parcial a esta última pergunta, “Plataformas para a abundância vermelha” examina o papel da cibernética na biocrise planetária, concluindo com algumas observações gerais sobre a cibernética no “horizonte comunista” de hoje (Dean, 2012). Primeiramente, contudo, o artigo revisa alguns dos problemas, tanto práticos quanto teóricos, que tiveram de ser enfrentados pelos planejadores soviéticos descritos em Abundância vermelha.
O capitalismo é um computador?
Os filósofos digitais sugerem que o universo pode ser uma simulação computacional programada por alienígenas: sem se comprometer com essa posição, há motivos para se considerar uma proposição mais intermediária, a saber, que o capitalismo se trata de um computador. Esta é a alegação implícita em um dos mais sérios desafios intelectuais erigidos contra o pensamento comunista, “o problema do cálculo socialista”, formulado por economistas da “escola austríaca” como Ludwig von Mises (1935) e Frederick Hayek (1945). Escrevendo no período definido pelo sucesso da Revolução Russa, esses economistas atacaram as premissas e a viabilidade da economia centralmente planejada. Todos os sistemas sociais, reconheceram eles, precisam de alguma forma de planejamento de uso dos recursos. O mercado, no entanto, decreta a operação de um plano distribuído, não-coercitivo, espontâneo e emergente (ou seja, que emerge, que surge a partir do resultado da sua operação) – aquilo que Hayek (1976: 38) chamou de “catalaxia”. Os preços fornecem um sinal sinótico e abstraído das necessidades e condições heterogêneas e em mutação, ao qual responde o investimento empresarial. Uma economia de comando, em contraste, teria de ser tanto despótica quanto impraticável, já que o cálculo de uma distribuição ótima de recursos escassos dependeria de inúmeros conhecimentos locais sobre necessidades de consumo e condições de produção que nenhum método centralizado de comunicação jamais seria capaz de compilar e avaliar.
Os economistas austríacos ofereceram, assim, uma atualização da celebração de Adam Smith da “mão invisível” do capital, agora re-imaginada como um sistema de informação semi-cibernético:
É mais do que uma metáfora a descrição do sistema de preços como um tipo de mecanismo para registrar mudanças, ou como um sistema de telecomunicações que permite aos produtores individuais observar apenas o movimento de alguns poucos indicadores – como um engenheiro pode observar os ponteiros de alguns mostradores – a fim de ajustar suas atividades às mudanças, sobre as quais eles podem jamais conhecer nada além daquilo que se reflete nos movimentos dos preços. (Hayek, 1945, p. 527)
Embora tomasse por referência as telecomunicações e a engenharia, Hayek, escrevendo no último ano da Segunda Guerra Mundial, poderia muito bem ter invocado os gigantescos computadores mainframe do Projeto Manhattan, pois o que ele propunha era que o mercado atuava como um mecanismo de cálculo automático: um computador.
Contudo, esta argumentação implementada de maneira polêmica contra o socialismo possuía dois lados – pois, se o mercado funciona como um computador, por que não substituí-lo por um computador? Se o planejamento centralizado sofria de um problema de cálculo, por que não resolvê-lo simplesmente utilizando verdadeiras máquinas de cálculo? Este foi precisamente o ponto levantado pelo oponente de Hayek, o economista Oskar Lange, que, revisando de maneira retrospectiva o debate do “cálculo socialista”, comentou: “hoje minha tarefa seria muito mais simples. Minha resposta para Hayek […] seria: então, qual é o problema? Coloquemos as equações simultâneas em um computador eletrônico e devemos obter a solução em menos de um segundo” (1967: 159). Esse era o projeto dos ciberneticistas representados em Abundância vermelha, um projeto guiado pela percepção de que a economia industrial soviética, aparentemente bem-sucedida, apesar de seus triunfos nas décadas de 1940 e 1950, estava lentamente ficando estagnada em meio à incoerência organizacional e gargalos informacionais.
O esforço deles dependia de uma ferramenta conceitual, a tabela de insumos-produtos, cujo desenvolvimento está associado a dois matemáticos russos: o emigrante Wassily Leontief, que trabalhou nos EUA, e Kantorovich, que trabalhando na União Soviética, é o protagonista central de Abundância vermelha. Tabelas de insumos-produtos – que, como foi revelado recentemente, estão entre os fundamentos intelectuais do algoritmo PageRank do Google (Franceschet, 2010) – mapeiam a complexa interdependência de uma economia moderna, mostrando como os produtos de um setor (por exemplo, aço ou algodão) fornecem os insumos para outro (digamos, carros ou roupas), para que se possa estimar a transformação na demanda resultante de uma mudança na produção de bens finais. Na década de 1960, essas tabelas eram um instrumento aceito por organizações industriais de grande escala: o trabalho de Leontief havia desempenhado um papel na logística da ofensiva maciça de bombardeio da Força Aérea dos EUA contra a Alemanha. No entanto, acreditava-se que a complexidade de toda uma economia nacional impediria sua aplicação em tal nível.
Os cientistas da computação soviéticos decidiram mirar na superação desse problema. Já na década de 1930, Kantorovich havia aprimorado as tabelas de insumos-produtos com o método matemático da programação linear, que estimava a melhor combinação, ou a combinação “otimizada”, de técnicas de produção para atingir uma determinada meta. Os ciberneticistas da década de 1960 pretendiam implementar em grande escala essa importante descoberta, estabelecendo uma infraestrutura computacional moderna para levar a cabo rapidamente os milhões de cálculos exigidos pela Gosplan, o Conselho Estatal de Planejamento que supervisionava os planos econômicos quinquenais. Após uma década de experimentação, a tentativa deles ruiu, frustrada pelo estado lamentável da indústria informática na União Soviética – que, estando cerca de duas décadas atrás da sua equivalente nos EUA, não havia passado pela revolução do computador pessoal nem desenvolvido um equivalente à Internet. Ela era, portanto, totalmente inadequada para a tarefa que lhe queriam atribuir. Tudo isso, junto da oposição política de uma nomenklatura que, vendo no novo método de planejamento científico uma ameaça ao seu poder burocrático, pressionou rumo ao abandono do projeto (Castells, 2000; Gerovitch, 2008; Peters, 2012).
Este não foi o único projeto do século XX de “revolucionários cibernéticos”; tão impressionante quanto essa foi a tentativa do governo chileno de Salvador Allende de introduzir uma versão mais descentralizada do planejamento eletrônico, o “Projeto Synco”/”Projeto Cybersyn” (Medina, 2005). Liderado pelo ciberneticista canadense Stafford Beer, foi concebido como um sistema de comunicação e controle que permitiria ao regime socialista coletar dados econômicos e transmiti-los aos tomadores de decisões no governo, ao mesmo tempo em que incorporaria em sua tecnologia salvaguardas contra a microgestão estatal e dispositivos para encorajar discussões multifacetadas sobre decisões de planejamento. Esta foi uma tentativa de engenharia socio-técnica de socialismo democrático que hoje talvez pareça mais atraente do que as manobras dos planejadores pós-stalinistas com a computação soviética. Contudo, acabou encontrando um destino ainda mais brutal: o Projeto Cybersyn foi extinto com o golpe de Pinochet de 1973.
No final, o fracasso da URSS em se adaptar a um mundo de software e redes contribuiu para sua derrota econômica/militar para os EUA. Sua desintegração – na qual, como demonstrou Alec Nove (1983), os gargalos de informação e as falsificações de relatórios desempenharam um papel importante – parecia justificar os economistas austríacos. Assim, o elogio de Hayek à catalaxia do mercado tornou-se central para o “coletivo de pensamento neoliberal” (Mirowski, 2009) que liderou a subsequente marcha da vitória do capitalismo global.
A pressão combinada do desastre prático da URSS e da argumentação teórica da Escola Austríaca exerceu uma força imensa no interior do que restou da esquerda, a pressionando para reduzir e redefinir o limite da sua aspiração radical até, no máximo, uma economia de empresas de propriedade coletiva coordenadas por sinais de preço. As muitas variantes de tais propostas de “socialistas de mercado” têm evocado refutações de marxistas que se recusam a ceder terreno à troca de mercadorias. Talvez por concederem ao mercado as funções de processamento automático de informações atribuídas a ele pelos economistas austríacos e socialistas de mercado, eles podem abordar questões em torno da inovação tecnológica ou da disponibilidade de dados públicos, mas parecem não se envolver profundamente com as potencialidades da computação contemporânea.
Hoje, no pós-colapso de 2008, as alegações de que os mercados seriam máquinas informacionais infalíveis podem parecer menos críveis do que eram há um quarto de século. O parasitário roubo energético subjacente às transmissões de sinal-preço (a exploração no ponto de produção); a incapacidade das trocas individuais de mercadorias de registrar consequências coletivas (as chamadas “externalidades”); e a recursividade de um sistema crematístico que fecha o circuito sobre si mesmo na especulação financeira, têm se tornado mais salientes em meio à implosão econômica e ecológica do capital global. Contudo, identificar tais falhas não isenta os comunistas da exigência de especificar como poderia funcionar outro sistema de alocação de recursos – um sistema que evite a “servidão” da subjugação estatal prevista por Hayek (1944).
Algoritmos de mão de obra
Apesar da queda do socialismo realmente existente, a ideia do planejamento econômico computadorizado continuou a ser desenvolvida por pequenos grupos de teóricos, que fizeram avançar seu escopo conceitual para além de qualquer coisa que tenha sido tentada pelos ciberneticistas soviéticos. Duas escolas foram de particular importância: o “Novo Socialismo” dos economistas escoceses Paul Cockshott (que também é cientista da computação) e Allin Cottrell (1993); e a “Escola de Bremen”, na Alemanha, que inclui Peter Arno (2002) e Heinz Dieterich (2006), este último defensor do “Socialismo do Século XXI” no estilo venezuelano. Essas tendências convergiram recentemente (Cockshott, Cottrell & Dieterich, 2010). Contudo, como bem pouco do trabalho do grupo de Bremen está disponível em outras línguas além do alemão, o foco aqui será no Novo Socialismo de Cockshott e Cottrell.
A marca que distingue o projeto do Novo Socialismo é seu rigor no marxismo clássico. Consequentemente, seu planejamento para os supercomputadores do século XXI segue ao pé da letra a lógica apresentada na Crítica do Programa de Gotha, do final do século XIX (Marx, 1970), que notoriamente sugere que no primeiro estágio do comunismo – seu estágio “inferior” -, antes que as condições de abundância permitam “a cada um de acordo com suas necessidades”, a remuneração será determinada pelas horas de trabalho socialmente necessárias para se produzir os bens e serviços. No ambiente de trabalho capitalista, os trabalhadores são pagos pela reprodução da sua capacidade de trabalho, e não pelo trabalho efetivamente extraído deles; é isso que permite ao capitalista garantir para si o valor excedente.
A eliminação desta situação, defendem Cockshott e Cottrell, exige nada menos do que a abolição do dinheiro – isto é, a eliminação do meio de troca geral e fungível que, através de uma série de metamorfoses do dinheiro, entrando e saindo da forma-mercadoria, cria o valor auto-expansível que é o capital. No seu novo socialismo, o trabalho seria remunerado por meio de certificados (ou tokens/vouchers/créditos) de trabalho realizado; uma hora de trabalho poderia ser trocada por bens que levassem, em uma base social média, um tempo equivalente para se produzir. Os certificados seriam extintos nessa troca – eles não circulariam e nem poderiam ser usados para especulação. Como os trabalhadores receberiam o valor social total do seu trabalho, não haveria lucros para proprietários e também não haveria nenhum capitalista para direcionar a alocação de recursos. Entretanto, os trabalhadores seriam tributados a fim de se estabelecer um conjunto comum dos recursos de tempo de trabalho disponíveis para os investimentos sociais, realizados por conselhos de planejamento cujo mandato seria estabelecido por decisões democráticas com base em objetivos sociais gerais.
O tempo de trabalho fornece portanto a “unidade objetiva do valor” para o Novo Socialismo (Cockshott & Cottrell 2003: 3). É neste ponto que seus proponentes invocam as capacidades da tecnologia da informação. Tal sistema exigiria uma enumeração do tempo de trabalho gasto, direta e indiretamente, na criação dos bens e serviços, para se avaliar a quantidade de certificados pelos quais esses bens e serviços poderiam ser trocados e para permitir o planejamento da sua produção. A ferramenta básica da tabela de insumos-produtos reaparece, com atenção especial ao tempo de trabalho, tanto como insumo necessário para a produção dos produtos, quanto como um produto que exige, ele mesmo, os insumos de treinamento e educação. Contudo, nesse ponto os defensores do Novo Socialismo precisam enfrentar uma objeção básica. Desde a queda da URSS, ficou convencionalmente aceito que a escala de processamento de informações tentada por seus ciberneticistas era simplesmente grande demais para ser viável. Escrevendo durante a década de 1980, Nove (1983) sugeriu que tal esforço, envolvendo a produção de cerca de doze milhões de itens discretos, exigiria um cálculo de insumos-produtos de complexidade impossível mesmo com a utilização de computadores. Essa afirmação tem sido repetida em discussões recentes sobre o livro Abundância vermelha, com críticos do planejamento centralizado sugerindo que, mesmo utilizando um computador pessoal contemporâneo, resolver as equações levaria “aproximadamente mil anos” (Shalizi, 2012).
A resposta de Cockshott e Cottrell envolve novas ferramentas, tanto conceituais quanto técnicas. Os avanços teóricos são extraídos de ramos da ciência da computação que lidam com a abreviação do número de etapas discretas necessárias para se concluir um cálculo. Tal análise, sugerem eles, demonstraria que as objeções de seus oponentes são baseadas em métodos “patologicamente ineficientes” (Cockshott, em Shalizi, 2012). Eles apontam que a estrutura da tabela de insumos-produtos da economia é “esparsa” – ou seja, apenas uma minúscula fração dos bens e serviços é utilizada diretamente para se produzir qualquer outro produto. Nem tudo é um insumo para todo o resto: o iogurte não é utilizado para se produzir aço. A maioria das equações invocadas para sugerir uma complexidade insuperável seriam, portanto, injustificadas. Um algoritmo poderia ser projetado para encurtar as tabelas de insumos-produtos, que ignore as entradas em branco e repita o processo de maneira iterativa até que se chegue a um resultado que esteja dentro de um nível aceitável de precisão.
O tempo de execução seria reduzido ainda mais pelos aumentos gigantescos na velocidade de processamento dos computadores produzidos pela Lei de Moore. Sugerir que o planejamento econômico de alto nível seria realizado em uma “máquina de mesa” é uma afirmação dissimulada: a verdadeira questão é a capacidade dos supercomputadores. De acordo com uma comunicação por e-mail com Benjamin Peters, em 1969, na época de Abundância vermelha, o “indiscutível cavalo de batalha” da economia da informação soviética era o BESM-6 (“bol’shaya electronicheskaya schetnaya mashina” – literalmente, “grande/maior máquina de cálculo eletrônico”), que podia funcionar a uma velocidade de operação de 800.000 flops (ou “operações flutuantes por segundo”, na sigla em inglês) – isto é, a 8 megaflops, ou 10^6 flops. Em 2013, no entanto, os supercomputadores usados na modelagem climática, testes de materiais e cálculos astronômicos geralmente ultrapassavam os 10 quatrilhões de flops ou dez “petaflops”. O detentor da coroa no momento da redação deste artigo é o Cray’s Titan, no Laboratório Nacional de Oak Ridge, nos EUA, alcançando cerca de 17,6 petaflops (10^15) (Wikipedia, 2013). Supercomputadores com capacidade na casa do “exaflop” (10^18 flops) eram previstos na China até 2019 (Dorrier, 2012). [Em 2018, o IBM Summit era capaz de realizar 1.22 x 10^17 multiplicações por segundo, confirmando a previsão] Portanto, como afirmou Peters (2013), “sendo um tanto generosos e dando aos soviéticos [uma capacidade de processamento de] 10^7 flops em 1969, podemos observar atualmente… um aumento [na capacidade de processamento] na casa de 100.000.000.000 vezes (10^18 – 10^7 = 10^11)”.
Com tamanha capacidade, a sugestão de Cockshott e Cottrell de que os requisitos computacionais para o planejamento econômico de larga escala poderiam ser tratados por meio de instalações comparáveis àquelas atualmente utilizadas para fins meteorológicos parece no mínimo algo plausível. O “problema do cálculo”, porém, envolve não apenas o processamento de dados, mas também a própria disponibilidade real desses dados; a alegação de Hayek não era apenas que os planejadores centrais não seriam capazes de processar os dados econômicos com rapidez suficiente, mas que em certo sentido os próprios números não existem antes da fixação dos preços, que por sua vez fornecem uma medida ausente do desempenho da produção e da atividade de consumo. Mais uma vez, Cockshott e Cottrell sugerem que a resposta está no uso de computadores como meio para colher as informações econômicas. Escrevendo no início da década de 1990, e invocando os níveis da infraestrutura de rede disponíveis na Grã-Bretanha na época, eles sugerem um sistema de coordenação consistindo de poucos computadores pessoais em cada unidade de produção, utilizando pacotes de programação padrão, que processariam os dados da produção local e que os enviariam por “telex” para uma instalação de planejamento centralizado, que a cada vinte minutos (ou um pouco mais) enviaria uma transmissão à rádio de dados estatísticos ajustados para serem inseridos a fim de ajustar os níveis locais. Este é um cenário que lembra muito o tecno-futurismo decadente do filme Brasil, de Terry Gilliam. Para atualizar os defensores do Novo Socialismo, ao invés disso, devemos nos referir à visão iconoclasta de Fredric Jameson do WalMart como sendo “a forma de um futuro utópico surgindo através da névoa” (2009: 423). Seu ponto é que, se por um momento ignorarmos a grosseira exploração dos trabalhadores e fornecedores, o Wal-Mart é uma entidade cujos colossais poderes organizacionais modelam os processos planejados necessários para se elevar os padrões de vida globais. E como reconhece Jameson, e outros autores documentam em detalhes (Lichtenstein, 2006), esse poder repousa em computadores, redes e na informação. Em meados dos anos 2000, os centros de processamento de dados do Wal-Mart estavam rastreando ativamente mais de 680 milhões de produtos distintos por semana e mais de 20 milhões de transações de clientes por dia, tudo isso facilitado por um sistema computacional cuja capacidade perdia apenas para a do Pentágono. Leitores de código de barras e sistemas computadorizados no ponto de venda identificam cada item vendido e armazenam essas informações. As telecomunicações por satélite conectam diretamente as lojas ao sistema de computação central e este sistema aos computadores dos fornecedores, para permitir a solicitação de reabastecimento automática. A adoção antecipada pela empresa de Códigos de Produto Universais levou a um requisito de “estágio superior” por etiquetas de identificação por radiofrequência (RFID) em todos os produtos para permitir o rastreamento de mercadorias, trabalhadores e consumidores dentro e fora de sua cadeia global de suprimentos.
O Wal-Mart é significativo porque se encontra “na vanguarda de uma mudança sísmica no imaginário corporativo”. Trata-se de uma mudança que vincula a noção de uma “revolução na logística” com a “produção just-in-time” e que “aproveita as tecnologias digitais e cibernéticas emergentes para gerenciar a produção, distribuição e vendas da maneira mais rápida e eficiente possível” (Haiven & Stonemouth, 2009: np). Essa transformação é estimulada pelo surgimento de uma “internet das coisas”, relacionando informações digitais a itens físicos do mundo real por meio de uma rede de produtos, usuários e locais equipados com sensores. Possibilitada pela disseminação de sofisticadas redes sem fio 4G, serviços de armazenamento de dados sob demanda através da “nuvem” de empresas como a Amazon e, especialmente, pela mais recente ampliação da capacidade de endereçamento graças ao protocolo de Internet IPV6, que fornece identificadores digitais exclusivos para um “[número] verdadeiramente monstruoso de 340 bilhões de bilhões de bilhões de bilhões” de itens, essa comunicação de dispositivo-para-dispositivo hoje provavelmente já excede em volume de dados o tráfego de pessoa-para-pessoa na Internet (Economist, 2012; np). Como observa Benjamin Bratton (2013), tal capacidade de endereçamento, combinada com a codificação digital compactada ao nível submicroscópico, abre uma capacidade praticamente ilimitada de identificação não apenas de coisas e pessoas, mas também de seus componentes mais elementares e de suas relações.
Assim, as trajetórias das velocidades de processamento de informações e das capacidades de coleta de dados apontam para a supressão do “problema do cálculo socialista”. No entanto, falar de planejamento em contextos tão panópticos inevitavelmente invoca temores de um controle estatal onisciente. Os defensores do Novo Socialismo vêm de uma linhagem marxista-leninista de vanguarda, com uma autodeclarada perspectiva centralista “jacobina” (Cockshott, Cottrell, & Dieterich, 2011). Para considerar como o planejamento cibernético poderia ser desenvolvido em modos mais transparentes e participativos, precisamos olhar para tradições comunistas diferentes.
Agentes comunistas
Historicamente, a tendência anti-estatal no marxismo tem se apoiado amplamente em uma tradição de “conselhos operários” bem diferente, que, contra os poderes do partido e do Estado, tem insistido no papel das assembleias nos espaços de trabalho como o loci da tomada de decisões, organização e do poder. Em um ensaio antediluviano pelos padrões digitais, “Conselhos de trabalhadores e a economia de uma sociedade autogerida”, escrito em 1957, mas republicado em 1972, imediatamente após o esmagamento pelos soviéticos dos Conselhos de Trabalhadores da Hungria, Cornelius Castoriadis observou o frequente fracasso dessa tradição em resolver os problemas econômicos de uma “sociedade totalmente autogerida”. A questão, escreveu ele, tinha de ser situada “firmemente na época do computador, da explosão do conhecimento, da transmissão sem fio e da televisão, das matrizes de insumos-produtos”, abandonando “utopias socialistas ou anarquistas de anos anteriores” porque “as infra-estruturas tecnológicas […] são tão imensuravelmente diferentes a ponto de tornar as comparações um tanto sem sentido” (Castoriadis, 1972: np). Como os planejadores de Abundância vermelha, Castoriadis imagina um plano econômico determinado por meio de tabelas de insumos-produtos e equações otimizadas governando a alocação geral de recursos (por exemplo, o equilíbrio entre investimento e consumo), mas com sua implementação nas mãos de conselhos locais. Seu ponto crucial, entretanto, é que deve haver vários planos disponíveis para a seleção coletiva. Essa seria a missão da “fábrica de planos”, um “empreendimento específico altamente mecanizado e automatizado”, utilizando “um computador” cuja “memória” iria “armazenar os coeficientes técnicos e a capacidade produtiva inicial de cada setor” (Castoriadis, 1972 : np). Essa agência central teria o suporte de outras que estudariam as implicações regionais de planos, inovações tecnológicas e melhorias algorítmicas específicas. A “fábrica de planos” não determinaria quais metas sociais deveriam ser adotadas; apenas geraria opções, avaliaria as consequências e, após a escolha democrática de um plano, o atualizaria e revisaria conforme necessário. Castoriadis concordaria com a observação posterior de Raymond Williams (1983) de que não há nada intrinsecamente autoritário no planejamento, desde que haja sempre mais de um plano.
Este conceito prematuro de autogestão cibernética é um precursor de uma visão mais recente do pós-capitalismo, a “Economia Participativa” de Michael Albert e Robin Hahnel (1991) ou “Parecon”. Essa visão também surge de uma tradição de “conselhos de trabalhadores”, embora de uma linha de pensamento anarquista, e não marxista. Seu trabalho é famoso pelo seu modelo de “planejamento participativo descentralizado” (Albert, 2003: 122), que representa uma alternativa tanto aos mecanismos de mercado quanto ao planejamento centralizado. Os conselhos representam, novamente, as unidades sociais básicas para a decisão democrática, mas na Parecon esses incluem não apenas os conselhos de trabalhadores, mas também conselhos de consumidores. A alocação de recursos é determinada pelas propostas dessas organizações para diferentes níveis de produção e consumo, que ao longo de uma série de rodadas de negociação são progressivamente reconciliadas pelos Conselhos de Facilitação Iterativa (Iteration Facilitation Boards, ou IFBs na sigla em inglês). Em etapas sucessivas do processo de planejamento, os conselhos de trabalhadores e de consumidores são incentivados pelos conselhos de facilitação a revisar suas propostas, diante do conhecimento das contribuições uns dos outros, até que haja convergência suficiente para se colocar em votação alguns poucos planos possíveis.
A Parecon tem sido um tópico de considerável controvérsia. Uma das objeções mais frequentes é que ela exemplifica o problema que Oscar Wilde identificou quando comentou que “o socialismo é uma boa ideia, mas que toma noites demais” – ou seja, parece exigir reuniões intermináveis. Hahnel (2008: np) sugere que o aumento da interatividade social é uma característica positiva da Parecon, e que sua complexidade não seria necessariamente maior do que a de muitos requisitos rotineiros da vida cotidiana capitalista – compras, impostos, controle financeiro, etc. Entretanto, de fato, parece que a condução dos ciclos iterativos de planejamento em camadas que eles imaginam em uma velocidade suficiente para se conseguir que qualquer coisa seja feita, exigiria uma infra-estrutura de rede muito sofisticada e um alto nível de participação tecnologicamente mediada: extensos bancos de dados acessados por conselhos e por sujeitos individuais, cartões magnéticos para a medição de mão-de-obra e do consumo, softwares gerais para preparação de propostas e sistemas de estoque just-in-time para a produção (Albert, 2003: 133).
Na verdade, a Parecon parece exigir um desenvolvimento digital posterior à sua proposta: as mídias sociais. Uma sociedade de planejamento coletivo participativo, bem informado, democrático e realizado em um tempo aceitável exigiria plataformas de comunicação rápidas, variadas e interativas onde as propostas pudessem circular, receber respostas, longas ou breves, e onde se pudesse identificar tendências, estabelecer reputações, gerar revisões e emendas, e assim por diante. Em suma, exigiria que Facebook, Twitter, Tumblr, Flickrr e outras plataformas da Web 2.0 não apenas fossem elas mesmas transformadas em operações autogerenciadas pelos seus trabalhadores (incluindo seus colaboradores “prossumidores”, hoje não remunerados), mas também se tornassem fóruns de planejamento: uma Gosplan com “tweets” e “curtidas”. Também temos que pensar nesses órgãos sendo transformados em direções como nos casos pioneiros de experimentos em redes sociais alternativas, como Diáspora, Crabgrass, Lorea, livres de incentivos de lucro e controle centralizado e assumindo formas mais “distribuídas” e “federadas” (Cabello et al. , 2013; Sevignani, 2013), tornando-se, como propõem Hu e Halpin (2013), redes que no seu próprio formato priorizem projetos grupais acima de identidades individuais, ou como plataformas de “individuação coletiva”; talvez menos rede social e mais “rede de conselho”.
Todavia, a ideia de todo mundo acompanhando as telas dos celulares para não perder não uma cutucada no Facebook, mas a votação da sétima rodada do plano participativo, talvez duplique características pouco atraentes da vida cotidiana no capitalismo de alta tecnologia. Assim, podemos especular ainda mais e sugerir que aquilo que o planejamento coletivo descentralizado realmente precisa não é apenas de redes de conselho, mas de “agentes comunistas”: agentes de software comunistas. Agentes de software são complexas entidades programadas, capazes de agir “com certo grau de autonomia […] em nome de um usuário (ou de outro programa)” (Wikipedia, 2013b: np). Tais agentes manifestam “direcionamento rumo a metas, seleção, priorização e iniciação de tarefas”; eles podem ativar a si mesmos, avaliar e reagir ao contexto, exibir aspectos de inteligência artificial, como aprendizado, e podem se comunicar e cooperar com outros agentes (Wikipedia, 2013b: np).
Comercialmente, os softwares “agentes de lances” são capazes de consistentemente superar os agentes humanos, de modo que “os seres humanos estão à beira de perder seu status como a única espécie econômica do planeta” (Kephart, 2002: 7207). A capacidade de tais entidades de criar uma “competição perfeita” em mercados eletrônicos os torna um favorito dos economistas influenciados pela Escola Austríaca (Mirowski, 2002). Como compradores e vendedores pré-programados capazes de processar grandes quantidades de dados de mercado, os agentes de software transformaram o comércio eletrônico devido à sua capacidade de pesquisar rapidamente a Internet, identificar as melhores ofertas, agregar essas informações para os usuários ou até mesmo de fato realizar compras de forma autônoma. No entanto, a arena em que esses agentes realmente atingem a excelência é no setor financeiro, onde a negociação de alta frequência depende inteiramente de “bots” de software capazes de responder às possibilidades de arbitragem em milissegundos.
Não dá para não se perguntar, porém, “e se os agentes de software pudessem manifestar um tipo diferente de política?” Observando que os modelos de Sistemas Multiagentes podem ser pensados como um meio de responder a problemas de alocação de recursos, Don Greenwood (2007: 8) sugeriu que eles poderiam ser utilizados para resolver o “problema do cálculo socialista”. Como ferramentas de planejamento, observa ele, os sistemas multiagentes possuem a vantagem sobre os mercados reais de que “os objetivos e restrições enfrentados pelos agentes podem ser pré-especificados pelo projetista do modelo” (Greenwood, 2007: 9). É possível projetar agentes com objetivos de nível macro que envolvam mais do que apenas a maximização do interesse próprio individual; dois princípios de “bem-estar social” com cuja incorporação economistas têm experimentado são a igualdade e a sustentabilidade na proteção ambiental.
Talvez devêssemos, portanto, conceber os repetidos ciclos de decisão do planejamento democrático como sendo debatidos e deliberados não apenas nas redes sociais, mas como sendo parcialmente delegados a uma série de agentes de software comunistas, que absorvam as demandas de atenção do processo, operando no ritmo dos algoritmos de negociação de alta velocidade, cruzando redes ricas em dados, fazendo recomendações para os participantes humanos (“se você gostou do plano quinquenal de geoengenharia mais nanotecnologia, mas sem armas nucleares, você pode gostar também de […]”), se comunicando e cooperando com cada um dos outros agentes em vários níveis, pré-programados para limites e configurações de decisão específicas (“manter as emissões de CO2 abaixo de 300 partes por milhão, aumentar a renda dos 20% mais pobres… e não aumentar as horas de trabalho necessárias para uma xícara de café”). Na era das máquinas autônomas, pode ser esse o aspecto de um conselho de trabalhadores.
Autômatos, cópias e replicadores
No entanto, o planejamento é mesmo necessário? Esquemas de planejamento centralizados e neo-socialistas e versões conselhistas descentralizadas em rede enxergam os computadores como instrumentos de cálculo, um meio de medida, especialmente para medir o trabalho: seu objetivo é abolir a exploração capitalista, devolvendo aos trabalhadores o valor total de seu tempo de trabalho. Há, contudo, outra linha de futurismo comunista que entende os computadores não tanto como instrumentos de planejamento, mas como máquinas de abundância. Poderíamos dizer que há duas maneiras de vencer a “catalaxia” capitalista de Hayek. Uma delas é deixá-la para trás na capacidade de cálculo; a outra é fazê-la explodir pelos ares: substituir a escassez pela plenitude, acabando com a necessidade de preços ou de planejamento. Para os marxistas, a “abundância” produz a transição da fase “inferior” do comunismo, que ainda precisa lidar com problemas de escassez, para a fase superior marcada por “de cada um de acordo com suas capacidades, a cada um de acordo com suas necessidades”. Uma metáfora popular para as condições tecnológicas necessárias para este momento posterior é o “replicador” de Star Trek, que supriria as necessidades humanas automaticamente, e com uma energia ilimitada, (Frase, 2011). Este ensaio não vai julgar qual nível de satisfação de necessidades deve ser considerado “suficiente”, ou qual combinação de crescimento e redistribuição seria adequada para alcançá-lo: essa certamente seria a questão enfrentada pelos planejadores coletivos do futuro. No entanto, identificaremos três tendências cibernéticas que apontam para a fase “superior” do comunismo: automação, cópia e produção peer-to-peer.
Desses, a automação tem sido a mais central para a imaginação comunista. Sua afirmação clássica é o agora famoso “Fragmento sobre as máquinas” nos Grundrisse, onde, analisando a fábrica industrial de sua época, Marx (1973: 690-711) prevê que a tendência do capital de mecanizar a produção, ao destruir a necessidade do trabalho assalariado, acabará explodindo todo o sistema. O fundador da cibernética, Norbert Weiner (1950), enxergava como principal consequência a eliminação informatizada dos empregos. Essa tese do “fim do trabalho” por meios digitais foi desenvolvida de forma muito direta por pensadores como André Gorz (1985) e Jeremy Rifkin (1995). Ao longo do final do século XX, no entanto, é notável como o capital evitou esse cenário. Longe de automatizar totalmente o trabalho, o capital buscou reservatórios globais de mão-de-obra barata, ao mesmo tempo em que seguia uma “marcha pelos setores” que impulsiona uma frente móvel da mercadorização da mão-de-obra na agricultura, indústria e serviços.
Desde 2000, no entanto, o debate sobre a automação foi renovado. Reduções contínuas nos custos de computação, melhorias nas tecnologias de visão computacional e de sistemas motores e de toque, investimentos militares das guerras de 11 de setembro em drones e veículos autônomos e demandas salariais por trabalhadores na China, Índia e em outras fontes de mão-de-obra anteriormente barata estimularam uma “nova onda de robôs […] muito mais hábeis do que aqueles hoje comumente utilizados por montadoras e outros fabricantes pesados”, mais flexíveis e mais fáceis de treinar, que agora estão substituindo trabalhadores não apenas na fabricação, mas também em processos de distribuição, circulação e serviços, como em armazéns, call centers e até mesmo no cuidado de idosos (Markoff, 2012: np). Erik Brynjolfsson e Andrew McAfee (2011: 9), economistas do Instituto de Tecnologia de Massachusetts, soaram um alarme de que o “ritmo e a escala dessa usurpação das habilidades humanas” está agora atingindo um novo nível, com “profundas implicações econômicas”. Essas preocupações estão sendo ecoadas pelos economistas tradicionais (Krugman, 2012).
Como parte do capital, a automação ameaça os trabalhadores com desemprego ou aceleração da produção. Se, no entanto, não houvesse uma tendência estrutural dominante para que aumentos de produtividade levassem ao desemprego ou a uma maior produção sem redução no tempo de trabalho, a automação poderia sistematicamente resultar em menos tempo gasto em locais de trabalho formais. Em um quadro estrutural comunista que protegesse o acesso ao valor de uso dos bens e serviços, a robotização cria a perspectiva de uma passagem do reino da necessidade para o reino da liberdade. Ela reintroduz o objetivo – encerrado tanto no experimento stakhanovista soviético quanto no sindicalismo de aumento salarial no Ocidente – de liberar o tempo do trabalho, com tudo isso que isso permitiria tanto em termos de autodesenvolvimento humano quanto de engajamento comunitário.
Juliet Schor (1991) estima que, se os trabalhadores estadunidenses tivessem recebido os ganhos obtidos com os aumentos de produtividade desde a década de 1950, não na forma de salários, mas como tempo livre, em 2000 eles estariam trabalhando vinte horas por semana. Isso indica a escala das transformações possíveis. Propostas para uma “renda básica” têm aparecido recentemente na política de esquerda. Certamente há críticas a serem feitas a elas, na medida em que avançam como uma estratégia reformista, com o risco de se tornarem apenas uma provisão racionalizada de bem-estar social dando sustentação à precariedade neoliberal. Mas seria difícil vislumbrar um futuro comunista significativo que não instituísse tais medidas para reconhecer as reduções no tempo de trabalho socialmente necessário possibilitadas pelos avanços da ciência e da tecnologia, destruindo o problema do cálculo de Hayek ao progressivamente subtrair dele a ur-mercadoria capitalista, a força de trabalho.
Se os robôs minam a centralidade da relação salarial, a Internet apresenta uma possibilidade paralela, de bens sem preço. Os economistas tradicionais há muito reconhecem as características anômalas dos bens informacionais não-rivais, que podem ser copiados interminavelmente a um custo próximo de zero, que podem circular quase que instantaneamente e serem compartilhados sem diminuir seu valor de uso. À medida que a produção intelectual e cultural se torna cada vez mais digitalizada, essas tendências de tornar a Internet “um lugar de abundância” (Siefkes, 2012: np) tornam-se gradativamente mais problemáticas para o sistema de preços. O capital tem lutado para manter a forma de mercadoria no ciberespaço, seja por tentativas de impor propriedade intelectual ou tratando os fluxos de informação como aceleradores de publicidade para outras mercadorias. Não obstante, a tendência à desmercadorização via software se provou não erradicável e foi intensificada pelas capacidades de se conduzir essa circulação fora de servidores controlados centralmente, por meio de redes peer-to-peer (de par-para-par, ou de ponto-a-ponto). A pirataria, que por muito tempo representou a maior parte da música digital, jogos, filmes e outros softwares distribuídos na Ásia, África, América Latina e Europa Oriental (Karaganis et al., 2011) representa a manifestação clandestina e criminalizada dessa tendência; e o movimento do software livre e de código aberto, sua expressão organizada.
Estes últimos têm sido o foco de interesse da esquerda libertária desde a inauguração da Free Software Foundation (por Richard Stallman em 1984), que libera código sob uma Licença Pública Geral (GPL), garantindo aos usuários a liberdade de alterar o seu propósito, estudá-lo, personalizá-lo, redistribuí-lo e alterá-lo. Como observa Jacob Rigi (2012), a chamada cláusula “copyleft” na GPL (trocadilho com “copyright”, de direitos autorais de reprodução ou cópia reservados, mas trocando o “right” – que significa tanto “direito” quanto “direita”-, por “left”, de esquerda), que exige que qualquer programa usando código GPL seja ele próprio publicado sob a GPL, é uma “negação dialética” dos direitos autorais, porque simultaneamente preserva e abole a propriedade de software, formulando “um direito de propriedade global e que inclui a todos”. Esse desenvolvimento foi elaborado pela organização de Linus Torvalds no início dos anos 1990, no método cooperativo coletivo e voluntário online para produção de software de código aberto. Como diz Rigi (2012), a combinação de licença GPL com programação coletiva de código aberto no estilo Linux “representa a essência do modo de produção P2P [peer-to-peer]”; ele vê nisso uma instanciação do “comunismo superior” de Marx, com o reconhecimento da natureza coletiva do conhecimento científico e a rejeição de qualquer demanda baseada na escassez, sendo substituída pela “equivalência entre contribuição para a produção social e participação no produto social”.
O software de código aberto alcançou um considerável sucesso prático (Weber, 2004), enquanto a produção P2P se desenvolveu em várias direções, com sua inflexão política variando do capitalismo libertariano até as visões liberais da nova “riqueza das redes” (Benkler, 2006) como sendo complementar e compatível com os mercados, chegando até versões especificamente comunistas, como o projeto Oekonux (Meretz, 2012), com a Fundação Ecumênica para Alternativas P2P (Bauwens, 2012) trabalhando em todo o espectro. Contudo, mesmo considerando o código aberto e o P2P como a germinação de um novo modo de produção, as dificuldades no cultivo dessas sementes vem se tornando aparentes. Uma dessas dificuldades é a relativa facilidade com que o capital incorporou essa semente como uma contribuição para os processos de mercadorização em outros pontos do circuito: de fato, toda a tendência da Web 2.0 pode ser considerada a contenção dos “novos” métodos de produção e circulação P2P firmemente dentro da redoma das “velhas” formas de mercadorias capitalistas. A outra questão tem sido aquilo que Graham Seaman (2002) chama de “problema da máquina de lavar” – o abismo entre a produção virtual e a produção material, softwares em cornucópia e a produção industrial, que parece restringir as práticas P2P, ainda que progressivas, a um pequeno subconjunto da atividade econômica total.
Ao longo da última década, no entanto, essa lacuna foi reduzida pelo rápido desenvolvimento de dispositivos de formas de microfabricação controlada por computador: a impressão 3D aditiva é a mais famosa, mas há uma variedade de outras, incluindo micro-torneamento de subtração e outros dispositivos de engenharia miniaturizada e digitalizada que colocam as capacidades industriais ao alcance de “laboratórios de hackers” (ou de “faça-você-mesmo”), residências e pequenas comunidades. Esses dispositivos forneceram as bases para um movimento emergente de “makers” (“fabricantes” ou “fazedores”), que vincula essas unidades de fabricação digital à circulação em rede dos projetos, sugerindo a alguns que o “modo de produção P2P pode ser estendido à maioria dos ramos da produção material” (Rigi, 2012). Essas tecnologias também estão associadas à proliferação de robôs e autômatos de pequena escala; de fato, o santo graal do movimento “maker” é o replicador auto-replicante, a máquina de von Neumann perfeita. A extrapolação dessas tendências coloca os “fabbers” e os “replicadores” da imaginação da ficção científica muito mais próximos da realização do que parecia ser possível até bem recentemente.
Mesmo os “makers” mais orientados para o mercado não hesitam em apontar que tais desenvolvimentos parecem devolver os meios de produção às mãos populares (Doctorow, 2009; Anderson, 2012). Mas, como sugere o exemplo do código aberto, não há uma lógica de comunização intrínseca no movimento maker, o que poderia facilmente resultar tanto em uma proliferação de microempreendedorismo quanto em bens comuns micro-industriais. Em sua crítica aos entusiastas liberais do P2P, Tony Smith observa que o pleno desenvolvimento da produção “peer” baseada em bens comuns é “incompatível com as relações de propriedade e de produção do capital” (2012: 178); enquanto essas relações persistirem, os envolvidos na produção “peer” voluntária continuarão a estar expostos ao trabalho assalariado do qual dependem, suas criações serão apropriadas pelo capital como “dádivas gratuitas”, e o desenvolvimento mais amplo de tais projetos seguirão carentes de recursos.
No entanto, em um mundo onde os investimentos fossem determinados sem favorecer sistemicamente a mercadorização do conhecimento, e sem a possibilidade de combinar bens comuns com conhecimento proprietário, a “imensa promessa emancipatória” da produção peer-to-peer poderia ser cumprida (Smith, 2012: 179). Como observa Smith, o capital contém em si uma tendência a desenvolver tecnologias “que permitem que certos tipos de valores de uso sejam distribuídos em números ilimitados para os indivíduos a custos marginais próximos de zero” (2006, 341): “Em qualquer forma de socialismo digno do nome, os custos da infra-estrutura e do trabalho social necessários para produzir produtos como esses seriam socializados e os produtos seriam distribuídos diretamente como bens públicos gratuitos para todos que os desejassem”. Embora Smith seja cético de que essa tendência possa, “no futuro previsível”, tornar-se predominante em toda a economia, ele admite que, se isso acontecesse, a experiência soviética, “assolada por problemas de escassez”, seria “completamente irrelevante para o projeto socialista” (2006: 241-2).
Infraestruturas de conhecimento do antropoceno
Uma sociedade comunista abundante de alta automação, software livre e replicadores domésticos pode, porém, como sugere Frase (2011), precisar de planejamento mais do que nunca – não para superar a escassez, mas para resolver os problemas da abundância, que hoje perversamente ameaçam o esgotamento das próprias condições para a vida. As mudanças climáticas globais e uma série de problemas ecológicos interligados desafiam todas as posições que discutimos até aqui. A biocrise traz de volta ao palco o planejamento, talvez até mesmo o cálculo – mas o cálculo de acordo com métricas que meçam limites, limiares e gradientes da sobrevivência das espécies, da espécie humana e de outras. Discutindo os imperativos para tal planejamento ecossocialista, Michael Lowy (2009) aponta como isso exigiria um direcionamento social muito mais abrangente do que o mero “controle pelos trabalhadores”, ou mesmo do que a conciliação negociada dos interesses de trabalhadores e consumidores como sugerida por esquemas como a Parecon. Em vez disso, implicaria numa reformulação de longo alcance dos sistemas econômicos, incluindo a descontinuação de certos setores, como a pesca industrial e a extração de madeira destrutiva, a reformulação dos meios de transporte, “uma revolução no sistema energético” e o impulso para um “comunismo solar” (Lowy, 2009: np).
Tais transformações envolveriam a cibernética em dois grandes eixos, tanto no aspecto de sua contribuição para a atual biocrise quanto como meio potencial para sua resolução. No primeiro desses eixos, os custos ecológicos das tecnologias digitais nominalmente “limpas” vêm se tornando cada vez mais aparentes: os requisitos de energia elétrica dos centros de processamento de dados da computação em nuvem; as demandas por água doce e por minerais para a fabricação de chips, com estes últimos vindo de empresas de extrativismo de grande escala; e as quantidades prodigiosas de lixo eletrônico (ou “e-waste”) tóxico resultante. Tornar cada casa em uma minifábrica no estilo fab-lab só vai acelerar a morte de calor planetária. Ao contrário de todas as noções idealistas sobre mundos virtuais, a cibernética é, ela mesma, inextricavelmente uma parte do próprio sistema industrial cujas operações devem ser colocadas sob escrutínio em um novo sistema de regulação metabólica que vise tanto a abundância vermelha quanto a abundância verde.
Ainda assim, os sistemas cibernéticos também representam uma parte potencial de qualquer resolução da biocrise – na verdade, até mesmo do seu pleno reconhecimento. Paul Edward (2010) em A vast machine (Uma máquina vasta) analisa o sistema global de medição e de projeção climatológica – o aparato de estações meteorológicas, satélites, sensores, registros arquivados digitalmente e simulações de computador massivas, que, como a própria Internet, se originou no planejamento da Guerra Fria nos EUA – do qual depende a compreensão do aquecimento global. Essa infraestrutura gera informações tão vastas em quantidade e a partir de plataformas de dados tão diversas em qualidade e forma que elas só podem ser compreendidas com base na análise computacional. O conhecimento sobre as mudanças climáticas depende de modelos computacionais: simulações climáticas de curto a longo prazo; modelos de retroanálise, que recriam a história climática a partir dos dados históricos; e modelos de dados que combinam e ajustam medições de múltiplas fontes.
Ao revelar a contingência das condições para a sobrevivência das espécies e a possibilidade de sua transformação antropogênica, tais “infraestruturas de conhecimento” de pessoas, artefatos e instituições (Edwards, 2010: 17) – não apenas para a medição do clima, mas também para o monitoramento da acidificação dos oceanos, desmatamento, perda de espécies, disponibilidade de água doce – revelam os pontos cegos da catalaxia de Hayek, onde os próprios fundamentos da existência humana figuram como uma “externalidade” arbitrária. O chamado “capital verde” tenta subordinar esses dados biológicos aos sinais dos preços. É fácil apontar para a falácia da precificação de eventos não-lineares e catastróficos: qual seria o preço adequado para o último tigre, ou para a emissão da última carga de carbono que venha a desencadear uma liberação incontrolável de metano? Todavia, bio-dados e bio-simulações agora também precisam ser incluídos em qualquer conceito de planejamento coletivo comunista. Na medida em que esse projeto visa um reino de liberdade que escape da necessidade da labuta, os bens comuns que ele cria terão que ser gerados utilizando energia mais limpa, e o conhecimento livre que circula precisa ter a regulação metabólica como prioridade. Questões sobre a remuneração adequada do tempo de trabalho exigem a integração com os cálculos ecológicos. Nenhum bio-acordo que não reconheça as aspirações planetárias de milhões de proletários de escapar da desigualdade e da miséria terá sucesso, mas as próprias métricas de mão de obra precisam ser repensadas como parte de um cálculo mais amplo dos gastos energéticos compatíveis com a sobrevivência coletiva.
Conclusão: em defesa do K-omunismo?
Marx (1964), em sua famosa (pelo bem ou pelo mal) comparação entre o “pior dos arquitetos” e a “melhor das abelhas”, enxergava que o primeiro se distinguia pela capacidade de “erigir na imaginação” a estrutura que vai criar. Hoje, com nosso conhecimento aprimorado sobre as comunidades de abelhas, essa distinção exala antropocentrismo. Contudo, mesmo que tenham do mesmo lado abelhas, castores e outros primatas, os seres humanos manifestam uma capacidade de planejamento hipertrófica. A experiência soviética, da qual faziam parte os ciberneticistas apresentados em Abundância vermelha, foi apenas uma instanciação estreita, historicamente específica e trágica dessa capacidade, cujo autoritarismo oculta o ponto mais crucial da concepção marxista de planejamento – a saber, que ela se pretende como um meio para a eleição comunal de qual “devir-espécie” humano e coletivo poderemos seguir, entre uma variedade de trajetórias (Dyer-Witheford, 2004).
Um novo comunismo cibernético – em si, uma dessas opções – envolveria, como vimos, alguns dos seguintes elementos: uso da supercomputação mais avançada para calcular algoritmicamente o tempo de trabalho e as necessidades de recursos, em nível global, regional e local, de múltiplos caminhos possíveis de desenvolvimento humano; seleção entre esses caminhos através da discussão democrática em camadas, conduzida em assembleias que incluam redes digitais socializadas e enxames de agentes de software; atualização à velocidade da luz e revisão constante dos planos selecionados por fluxos de big data vindo de fontes na produção e no consumo; a passagem de números crescentes de bens e serviços para o reino da produção livre ou direta como valores de uso, à medida que a automação, o copy-left, os bens comuns peer-to-peer e outras formas de micro-replicação se estabelecem; a informação de todo o processo por meio de parâmetros definidos a partir de simulações, sensores e sistemas de satélite medindo e monitorando o intercâmbio metabólico da espécie com o ambiente planetário.
Seria de fato um comunismo herdeiro da definição de “sovietes mais eletricidade” de Lênin, com suas raízes no futurismo vermelho, construtivismo, tektologia e cibernética, juntamente com os imaginários da ficção científica de esquerda de autores como Iain M. Banks, Ken McLeod e Chris Moriarty. Seria uma matriz social incentivando formas cada vez mais sofisticadas de inteligência artificial como aliadas da emancipação humana. Àqueles que temem a marcha da máquina, esse comunismo carrega só este conforto: quaisquer singularidades que possam brotar de suas redes não seriam derivadas de entidades inicialmente programadas para a expansão desenfreada do lucro e para a defesa militar da propriedade, mas sim para o bem-estar humano e para a proteção ecológica. Tal comunismo está em consonância com uma política aceleracionista de esquerda que, no lugar de anarcoprimitivismos, localismo defensivo e nostalgia fordista, “pressione na direção de um futuro mais moderno, uma modernidade alternativa que o neoliberalismo é inerentemente incapaz de gerar” (Williams & Srnicek, 2013). Se precisar de um nome, pode-se pegar o prefixo K com o qual alguns designam esforços de “kybernética” e chamá-lo de ‘K-omunismo’ [mas alguns grupos vêm utilizando o nome “ciber-comunismo”]. O espaço possível para tal comunismo existe no momento apenas entre as linhas convergentes do colapso civilizacional e da consolidação capitalista. Nesse corredor cada dia mais estreito, ele surgiria não de qualquer lógica teleológica já determinada, mas peça por peça a partir de incontáveis colapsos e conflitos sociais; um modo de produção pós-capitalista emergindo em um contexto de crise massiva de meados do século XXI, montando a si mesmo a partir de cem anos de história comunista computadorizada não-linear para criar as plataformas de uma futura abundância vermelha.
Referências
Albert, M. (2003) Parecon: Life After Capitalism. New York: Verso.
Albert, M. & Hahnel, R. (1991) Looking Forward: Participatory Economics for the Twenty First Century. Boston: South End Press.
Anderson, C. (2012) Makers: The New Industrial Revolution. Toronto: Signal.
Bauwens, M. (2005) ‘The Political Economy of Peer Production’, CTheory, January 12: http://www.ctheory.net/articles.aspx?id=499
Benkler, Y. (2006) The Wealth of Networks. New York: Yale University Press.
Brynjolsson, E, & McAfee, A. (2011) Race Against the Machine. Lexington, MA: Digital Frontier.
Cabello, F. et al. (2013) ‘Towards a Free Federated Social Web: Lorea Takes the Networks’, in G. Lovink & M. Rasch (eds), Unlike Us Reader: Social Media Monopolies and Their Alternatives. Amsterdam: Institute of Network Cultures.
Castells, M. (2000) End of Millennium. Oxford: Oxford University Press.
Castoriadis, C. (1972) ‘Workers’ Councils and the Economics of a Self-Managed Society’: http://www.marxists.org/archive/castoriadis/1972/workerscouncils.htm
Cockshott, P. & Cottrell A. (1993) Towards a New Socialism. London: Spokesman Books.
Cockshott, P., & Zachariah, D. (2012) Arguments For Socialism, June 2: www.lulu.com
Cockshott, P., Cottrell, A., Dieterich, H. (2010) ‘Transition to 21st Century Socialism in the European Union’: http://reality.gn.apc.org/econ/Berlinpaper.pdf
Dean, J. (2012) The Communist Horizon. London: Verso.
Dieterich, H. (2006) Der Sozialismus des 21. Jahrhunderts – Wirtschaft, Gesellschaft und Demokratie nach dem globalen Kapitalismus. Berlin: Homilius.
Doctorow, C. (2009) Makers. New York: Tor. Dorrier, J. (2012) ‘The Race to a Billion Billion Operations Per Second: An Exaflop by 2018?’, SingularityHUB, January 11: http://singularityhub.com/2012/11/01/the-race-to-a-billionbillion-operations-per-second-an-exaflop-by-2018/
Dyer-Witheford, N. (2004) ‘1844/2004/2044: The Return of Species-Being’, Historical Materialism. 13(4): 3-25.
Economist (2012). ‘Welcome to the thingternet: Things, rather than people, are about to become the biggest users of the internet.’ The Economist, November 21: http://www.economist.com/news/21566428-things-rather-peopleare-about-become-biggest-users-internet-welcome.
Edwards, P. (2010) A Vast Machine: Computer Models, Climate Data, and the Politics of Global Warming. Cambridge, MA: MIT Press.
Franceschet, M. (2010) ‘PageRank: Standing on the Shoulders of Giants’, Cornell University Library, February 15: http://arxiv.org/abs/1002.2858
Frase, P. (2011) Quatro futuros.
Gerovitch, S. (2008) ‘InerNyet: Why the Soviet Union Did Not Build a Nationwide Computer Network’, History and Technology 24 (4): 335-350.
Gorz, A. (1985) Paths to Paradise: On the Liberation from Work. London: Pluto Press.
Greenwood, D. (2007) ‘From Market to Non-Market: An Autonomous Agent Approach to Central Planning’, Knowledge Engineering Review 22 (4): 349-360.
Hahnel, R. (2008) ‘Robin Hahnel Answers Various Criticisms of Participatory Economics’, ZNet, November 19: http://www.zcommunications.org/robin-hahnel-answers-variouscriticisms-of-participatory-economics-by-robin-hahnel
Haiven, M. & Stoneman, S. (2009) ‘Wal-Mart: The Panopticon of Time’, Globalization Working Papers, Institute on Globalization and the Human Condition: McMaster University, April: http://www.academia.edu/1474872/WalMart_The_panopticon_of_time
Hardt, M. & Negri, A. (2009) Commonwealth. Cambridge, MA: Harvard University Press.
Harvey, D. (2010) ‘Organizing for the Anti-Capitalist Transition: Talk Given at the World Social Forum 2010, Porto Alegre’, Reading Marx’s Capital with David Harvey, http://davidharvey.org/2009/12/organizing-for-the-anti-capitalisttransition/
Hayek, F. (ed.) (1935) Collectivist Economic Planning. London: Routledge. Hayek, F. (1976) Law, Legislation and Liberty v. 2: The Mirage of Social Justice. Chicago: University of Chicago Press.
Hayek, F. (1945) ‘The Use of Knowledge in Society’, American Economic Review 35 (4): 519-530. Hayek, F. (1944) The Road to Serfdom. Chicago: University of Chicago.
Hui, Y. & Halpin, H. (2013) ‘Collective Individuation: The Future of the Social Web’, in G. Lovink & M. Rasch (eds), Unlike Us Reader: Social Media Monopolies and Their Alternatives. Amsterdam: Institute of Network Cultures.
Jameson, F. (2009) Valences of the Dialectic. London: Verso.
Karaganis, J. (ed.) (2011) Media Piracy in Emerging Economies. New York: Social Science Research Council.
Kephart, J. (2002) ‘Software Agents and the Route to the Information Economy’, Proceedings of the National Academy of Sciences of the United States of America, vol. 99, no. Suppl 3, May 14:7207-7213.
Krugman, P. (2012) ‘Robots and Robber Barons’, New York Times (December 6): ttp://www.nytimes.com/2012/12/10/opinion/krugman-robotsand-robber-barons.html?_r=0
Lange, O. (1967) ‘The Computer and the Market’, in C. H. Feinstein (ed.), Socialism, Capitalism and Economic Growth: Essays Presented to Maurice Dobb. Cambridge: Cambridge University Press.
Lichtenstein, N. (ed.) (2006) Wal-Mart: The Face of Twenty-First Century Capitalism. New York: New Press.
Lovink, G. & Rasch, M. (eds) (2013) Unlike Us Reader: Social Media Monopolies and Their Alternatives. Amsterdam: Institute of Network Cultures.
Lowy, M. (2006) ‘Ecosocialism and Democratic Planning’, in L. Panitch & C. Leys (eds), Socialist Register 2007. London: Merlin. Marx, K. (1964) Economic and Philosophic Manuscripts of 1844. New York: International Publishers.
Marx, K. (1970) Critique of the Gotha Program. Moscow: Progress Publishers.
Marx, K. (1973) Grundrisse. Harmondsworth: Penguin.
Marx, K. (1977) Capital Vol. 1. New York: Vintage Books.
Medina, E. (2011) Cybernetic Revolutionaries: Technology and Politics in Allende’s Chile. Cambridge, MA: MIT Press.
Mirowski, P. (2002) Machine Dreams: Economics Becomes a Cyborg Science. Cambridge: Cambridge University Press.
Mirowski, P. (ed.) (2009) The Road from Mont Pelerin: The Making of the Neoliberal Thought Collective. Cambridge, MA: Harvard University Press.
Nove, A. (1983) The Economics of Feasible Socialism. London: Allen & Unwin.
Peters, A. (2001) Computer Sozialismus: Gespräche mit Konrad Zuse. Berlin: Verlag.
Peters, B. (2012) ‘Normalizing Soviet Cybernetics’, Information & Culture 47(2) 145-175.
Rifkin, J. (1995) The End of Work. New York: Putnam.
Rigi, J. (2012) ‘Peer-to-Peer Production as the Alternative to Capitalism: A New Communist Horizon’, Journal of Peer Production 1: http://peerproduction.net/issues/issue-1/invited-comments/anew-communist-horizon/
Schor, J. (1991) The Overworked American: The Unexpected Decline of Leisure. New York: Basic Books.
Seaman, G. (2002) ‘The Two Economies or Why the Washing Machine Question is the Wrong Question’: http://second.oekonuxconference.org/documentation/texts/Seaman.html
Sevignani, S. (2013) ‘Facebook vs. Diaspora: A Critical Study’, in G. Lovink & M. Rasch (eds), Unlike Us Reader: Social Media Monopolies and Their Alternatives. Amsterdam: Institute of Network Cultures.
Shalizi, C. (2012) ‘In Soviet Union, Optimization Problem Solves You’, Crooked Timber (May 30): http://crookedtimber.org/2012/05/30/in-soviet-unionoptimization-problem-solves-you/
Siefkes, C. (2012) ‘Beyond Digital Plenty: Building Blocks for Physical Peer Production’, Journal of Peer Production 1: http://peerproduction.net/issues/issue-1/invitedcomments/beyond-digital-plenty/
Smith, T. (2012) ‘Is Socialism Relevant in the ‘Networked Information Age’? A Critical Assessment of The Wealth of Networks’, in A. Anton & R. Schmitt (eds), Taking Socialism Seriously. Lanham: Lexington.
Smith, T. (2006) Globalisation: A Systematic Marxian Account. Boston: Brill.
Stallman, R. (2004) Free Software, Free Society. Thissur, India: Altermedia.
Thorburn, E. (2013) ‘Minoritarian Assemblages: Embodied and Machinic Agencies in the New Cycles of Struggle’, Journal of Communication and Critical/Cultural Studies, forthcoming.
von Mises, L. (1935) ‘Calculation in the Socialist Commonwealth’, in F.A. Hayek (ed.), Collectivist Economic Planning. London: Routledge.
Weber, S. (2004) The Success of Open Source. Cambridge, MA: Harvard University Press.
Wiener, N. (1950) Human Use of Human Beings: Cybernetics and Society. Boston: Houghton Mifflin.
Wikipedia. (2013a) ‘TOP 500’: http://en.wikipedia.org/wiki/TOP500 Wikipedia. (2013b) ‘Software agents’: http://en.wikipedia.org/wiki/Software_agent
Williams, A. & Srnicek, N. (2013) ‘#ACCELERATE MANIFESTO for an Accelerationist Politics’ (14 May): http://criticallegalthinking.com/2013/05/14/acceleratemanifesto-for-an-accelerationist-politics / Williams, R. (1983) Towards 2000. London: Chatto & Windus.
Sobre os autores
Nick Dyer-Witheford
é professor da Faculdade de Estudos de Informação e Mídias da Universidade de Ontário Ocidental, no Canadá, onde pesquisa principalmente a ascensão tecnológica e da Internet, bem como seus impactos continuados sobre a sociedade moderna. Seu último livro foi Inhuman Power: Artificial Intelligence and the Future of Capitalism ("Poder Inumano: inteligência artificial e o futuro do capitalismo", Pluto Press, 2019).